I guardiani dell’intelligenza artificiale. “L’innovazione sia responsabile”

Pisa, 9 novembre 2025 – Pisa si dimostra ancora una volta un’eccellenza per guardare al futuro. Il professor Dino Pedreschi, docente di Informatica all’Università di Pisa, è stato nominato vicepresidente del gruppo europeo incaricato di scrivere il codice di pratica sulla trasparenza dei contenuti generati dall’intelligenza artificiale. Si tratta di una task force di esperti che nell’ambito dell’AI Act, il regolamento europeo sull’intelligenza artificiale, puntano a definire linee guida comuni per riconoscere quando un testo, un’immagine, un video o una voce non sono frutto di un autore umano, ma di un modello generativo. «La preoccupazione – spiega Pedreschi – è trovarsi immersi in contenuti che sembrano veri ma non lo sono. Con il codice di pratica vogliamo che produttori e utilizzatori di IA s’impegnino a marcare i contenuti artificiali, rendendoli riconoscibili e tracciabili».
Da vicepresidente, Pedreschi contribuirà a definire standard operativi, come filigrane digitali e marcature invisibili leggibili dalle macchine, utili per identificare deepfake e contenuti sintetici, senza alterare l’esperienza dell’utente. «Il codice – chiarisce – sarà volontario, ma servirà ai fornitori per rispettare la normativa e agli utenti per dichiarare apertamente quando l’IA interviene, soprattutto su temi di interesse pubblico».

Professor Dino Pedreschi, qual è il punto centrale del vostro lavoro?
“L’intelligenza artificiale deve essere inserita in un binario di regole per garantire che non ci sfugga di mano: oggi distinguere ciò che è reale da ciò che è generato dall’IA è sempre più difficile. Il nostro obiettivo è dunque creare linee guida affinché chi produce e chi usa sistemi generativi marchi i contenuti artificiali, rendendoli riconoscibili. Senza trasparenza, il sistema dell’informazione perde credibilità. E senza credibilità, non c’è fiducia”.
Quando parla di marchi, a cosa si riferisce?
“Per immagini e video possiamo parlare di una filigrana digitale. Sul testo è più complesso. Si tratta di segnali invisibili per l’occhio umano ma leggibili da software: una firma nascosta, che permette di sapere se quel contenuto è stato generato da una macchina e, in caso, segnalarlo”.
Questi sistemi possono davvero frenare i deepfake?
“Le dico questo, se i modelli più potenti di intelligenza artificiale generativa diventassero conformi al regolamento europeo da noi previsto, creare deepfake non riconoscibili diventerà molto più difficile per i malintenzionati. E questo è cruciale, perché i deepfake e tanti altri contenuti artificiali possono interferire con la democrazia, alterare il dibattito pubblico, minare la libertà di informazione. Se arriviamo a non distinguere più cosa è vero e cosa è falso, smetteremo di fidarci di tutto e di tutti: sarebbe un salto indietro di mille anni che dobbiamo evitare a tutti i costi”.
Quindi la marcatura è solo il primo passo?
“Esatto. È un fondamentale punto di partenza. Poi serve rafforzare il nostro sistema informativo, che è già sotto pressione”.
Il codice è volontario. Perché le aziende dovrebbero aderire?
“Perché dall’agosto 2026 chi non sarà conforme non potrà più operare nel mercato UE. E rinunciare a 450 milioni di persone con alto reddito medio non è una scelta sostenibile. Ricordo che anche la legge sulla privacy, all’inizio, fu criticata. Poi è diventato uno standard globale. Quando un provvedimento è intelligente, non blocca l’innovazione: la guida. L’innovazione è progresso solo se è anche responsabile”.
E guardando avanti? Che rapporto avremo con l’IA tra cinque anni?
“È molto difficile fare previsioni perché tra umani e intelligenza artificiale siamo in una fase di co-evoluzione: l’IA influenza l’uomo e noi influenziamo l’IA. La sfida è dunque crescere insieme senza farsi travolgere. Dobbiamo far sì che questi strumenti potenzino le capacità umane, invece di erodere la fiducia sociale. Il punto zero è questo: saper riconoscere ciò che è umano da ciò che è artificiale. Senza questa consapevolezza, il resto semplicemente non tiene”.
La Nazione




